Últimas Noticias

"Expertos alertan sobre el aumento del odio y acoso en redes por la falta de moderación"

La adquisición de Twitter por parte de Elon Musk, aliado cercano del próximo presidente de EE. UU., Donald Trump, transformó la plataforma, que el multimillonario rebautizó como X, en un entorno caótico y carente de normas en nombre de una supuesta libertad de expresión. Un estudio de la Escuela de Ciencia y Tecnología City St. George’s de la Universidad de Londres, realizado en nueve países, incluida España, indicó que X se ha convertido, en apenas dos años, en un espacio propicio para el abuso y la manipulación política, donde se menosprecia a los adversarios, disidentes o voces moderadas, considerándolos “enemigos”. Las redes de Meta (Facebook, Instagram y Threads) siguen una tendencia similar al eliminar la verificación de hechos y relajar la moderación del contenido. “Las repercusiones de esta decisión serán un incremento del acoso, el discurso de odio y otros comportamientos perjudiciales en las plataformas que utilizan miles de millones de personas”, advierte Alexios Mantzarlis, director de Seguridad, Confianza y Protección del área tecnológica de la Universidad de Cornell. Pocas organizaciones respaldan esta estrategia.

El investigador de Cornell, que participó en la red internacional de fact-check, destaca que la deriva de Meta, fundada y dirigida por Mark Zuckerberg, es doble: no solo deja de verificar los datos para identificar los bulos y delega en los usuarios su control, sino que, además, abre la puerta a los contenidos más susceptibles de generar un discurso de odio. Lo confirma el nuevo director de asuntos globales de la multinacional, Joel Kaplan: “Nos estamos deshaciendo de una serie de restricciones en temas como la inmigración, la identidad sexual y el género que son objeto de frecuentes discursos y debates políticos. No es justo que se puedan decir cosas en la televisión o en el Congreso, pero no en nuestras plataformas”.

Mantzarlis es muy crítico con la medida: “Además de poner fin al programa de verificación de hechos, Zuckerberg también ha anunciado un enfoque más laxo para la moderación de contenido, por lo que Meta no buscará proactivamente contenido potencialmente dañino en una amplia gama de dominios. Dependiendo de cómo se aplique, las consecuencias de esta decisión serán un aumento del acoso, el discurso de odio y otros comportamientos dañinos”.